1,074 research outputs found

    Recurrent backpropagation and the dynamical approach to adaptive neural computation

    Get PDF
    Error backpropagation in feedforward neural network models is a popular learning algorithm that has its roots in nonlinear estimation and optimization. It is being used routinely to calculate error gradients in nonlinear systems with hundreds of thousands of parameters. However, the classical architecture for backpropagation has severe restrictions. The extension of backpropagation to networks with recurrent connections will be reviewed. It is now possible to efficiently compute the error gradients for networks that have temporal dynamics, which opens applications to a host of problems in systems identification and control

    Contrastive learning and neural oscillations

    Get PDF
    The concept of Contrastive Learning (CL) is developed as a family of possible learning algorithms for neural networks. CL is an extension of Deterministic Boltzmann Machines to more general dynamical systems. During learning, the network oscillates between two phases. One phase has a teacher signal and one phase has no teacher signal. The weights are updated using a learning rule that corresponds to gradient descent on a contrast function that measures the discrepancy between the free network and the network with a teacher signal. The CL approach provides a general unified framework for developing new learning algorithms. It also shows that many different types of clamping and teacher signals are possible. Several examples are given and an analysis of the landscape of the contrast function is proposed with some relevant predictions for the CL curves. An approach that may be suitable for collective analog implementations is described. Simulation results and possible extensions are briefly discussed together with a new conjecture regarding the function of certain oscillations in the brain. In the appendix, we also examine two extensions of contrastive learning to time-dependent trajectories

    Roof assembly on a car body

    Get PDF
    The present bachelor thesis explains the functioning and automatization behind a modern roof assembly line in a car manufacturing center. The assembly line’s automatic sequences are analyzed with the aid of GRAFCET charts elaborated based on the author’s observations and work on said line. A chapter is dedicated to discussing the communications between the three programmable logic controllers that govern the assembly process, while another chapter exposes the handling of safety procedures, both physical and programmable. A human machine interface is developed and designed to aid in the monitoring of safety during production, and two automated stations which aim to improve the line’s performance. A brief environmental analysis concerning the aluminum waste generated during the assembly process is also put together, as well as an economic analysis. Finally, an evaluation of the improvements made on the production performance is made

    An Alternative Methodology for Estimating Credit Quality Transition Matrices

    Get PDF
    This study presents an alternative way of estimating credit transition matrices using a hazard function model. The model is useful both for testing the validity of the Markovian assumption, frequently made in credit rating applications, and also for estimating transition matrices conditioning on firm-specific and macroeconomic covariates that influence the migration process. The model presented in the paper is likely to be useful in other applications, though we would hesitate to extrapolate numerical values of coefficients outside of our application. Transition matrices estimated this way may be an important tool for a credit risk administration system, in the sense that with them a practitioner can easily forecast the behavior of the clients´ratings in the future and their possible changes of stateFirms; macroeconomic variables; firm-specific covariates; hazard function; transition intensities. Classification JEL: C4; E44; G21; G23; G38.

    Modelado de un proceso de mecanizado ortogonal mediante el uso de dinámica explícita en el método de elementos finitos

    Get PDF
    El uso de la simulación computacional viene siendo de vital importancia en la actualidad en el área de corte por viruta, puesto que aplicada a una labor investigativa permite hacer predicciones del comportamiento de materiales a mecanizar, el comportamiento al interactuar con otros materiales y el comportamiento que presenta al entrar en contacto con la herramienta de corte. Estas simulaciones permiten verificar diferentes modelos de forma virtual antes de recurrir a la realización física del proceso, al probar y ejecutar diferentes configuraciones de mecanizado [2], tales como, cambiar el material a mecanizar, diferentes formas de la pieza a mecanizar, variar las dimensiones y ángulos de la herramienta a mecanizar. De esta forma, obtener información de vital importancia que permita escoger las mejores configuraciones a la hora de llevar a cabo la producción, mejorar la calidad y disminuir el costo de sus productos. La realización de modelos que evalúan el comportamiento físico de los procesos de mecanizado, ayudan a tener información de gran importancia para la implementación en procesos reales de producción. Con la implementación de la dinámica explícita, modelos constitutivos y modelos de falla en elementos finitos, se enfatiza en zonas donde se produce la interacción entre el material a mecanizar y la herramienta de corte [3]. Al aplicar los modelos mencionados se obtiene información cualitativa y cuantitativa de variables asociadas al proceso de mecanizado ortogonal como temperatura, esfuerzos, tipo y forma de viruta, tensiones residuales, velocidad de corte, influencia de la geometría de la herramienta de corte, influencia de la fricción, ángulo de ataque de la herramienta de corte, ángulo de incidencia de la herramienta de corte, etc

    Método de medición de permitividad eléctrica

    Get PDF
    ilustraciones, fotografías, gráficas, tablasIn this research, a method is presented to measure electrical permittivity, using reflectometry techniques with the help of a vector network analyzer (VNA) and a Vivaldi type antenna developed during the investigation. This method is intended to assist the material identi cation process wirelessly and noninvasively. The method focuses on the UHF frequency band because the measurement equipment, both in the Electromagnetic Compatibility Laboratory of the Universidad Nacional de Colombia as in the Electronic Engineering Laboratory of the Ponti cia Universidad Javeriana showed that in this frequency band, the measurement of electrical permittivity of water behaves stably.En esta investigación, se presenta un método para medir la permitividad eléctrica, utilizando técnicas de reflectometría con la ayuda de un analizador de redes vectoriales (VNA) y una antena tipo Vivaldi desarrollada durante la investigación. Este método está destinado a ayudar al proceso de identi ficación de materiales de forma inalámbrica y no invasiva. El método se enfoca en la banda de frecuencia UHF porque el equipo de medición, tanto en el Laboratorio de Compatibilidad Electromagnética de la Universidad Nacional de Colombia como en el Laboratorio de Ingeniería Electrónica de la Ponti ficia Universidad Javeriana mostró que en esta banda de frecuencia, la medición de la permitividad eléctrica del agua se comporta de manera estable. (Texto tomado de la fuente).MaestríaMagíster en Ingeniería - Ingeniería ElectrónicaElectrónica y circuitos de alta frecuencia, radiofrecuenci

    Modelos de resposta ao item para respostas de contagem

    Get PDF
    Orientador: Caio Lucidius Naberezny AzevedoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação CientíficaResumo: No presente trabalho desenvolvemos modelos da teoria de resposta ao item (TRI) para analisar testes cujos itens apresentam respostas em forma de contagem. Três classes de modelos foram propostas: modelos log-lineares de Poisson, modelos log lineares binomial negativo, e suas respectivas extensões contemplando excessos de zeros, com funções de ligação apropriadas. Metodologias de estimação paramétrica, verificação da qualidade do ajuste e comparação de modelos, sob o paradigma bayesiano, foram desenvolvidas, através de algoritmos MCMC. Estudos de simulação, considerando vários cenários de interesse prático, foram conduzidos para avaliar o comportamento das ferramentas desenvolvidas. Os resultados indicam que os parâmetros foram bem recuperados e que as ferramentas de verificação da qualidade do ajuste e as estatísticas de comparação de modelos são apropriadas. Um conjunto de dados, relativo ao conflito armado colombiano, onde os parâmetros dos itens são utilizados para investigar o nível de propensão e discriminação dos diferentes tipos de vitimização, e o risco de vitimização ou simplesmente vitimização corresponde aos traços latentes de interesse, foi analisado, ilustrando o potencial das ferramentas desenvolvidasAbstract: In this work we develop item response theory (IRT) models to analyze tests with counting response items. Three classes of models were proposed: log-linear Poisson models, log-linear negative binomial models and their respective zero-inflated extensions, with appropriate link functions. Parametric estimation, model fit assesssment and model comparison tools, under the Bayesian paradigm, were developed using MCMC algorithms. Simulation studies, considering several scenarios of practical interest, were conducted to evaluate the behavior of the developed tools. The results indicate that the parameters were properly recovered and that the model fit assessment tools and model comparison statistics are appropriate. A real data set, related to Colombian armed conflict, where item parameters are considered to investigate the level of propensity and discrimination for different types of victimization, and the victimization risk (or victimization) corresponds to the latent trait of interest, were analyzed, illustrating the potential of the developed toolsMestradoEstatisticaMestre em Estatística169545/2017-2CNPQCAPE

    El indicador financiero único como mecanismo de alerta temprana: una nueva versión.

    Get PDF
    Con esta nueva versión del Indicador Financiero Único se pretende no sólo resumir, evaluar y organizar jerárquicamente el desempeño de los establecimientos de crédito, sino también establecer un sistema de alertas tempranas que permita predecir con suficiente anticipación la posibilidad de entrar en una crisis financiera. Así, sería factible tomar medidas correctivas complementarias a otras previamente adoptadas para contribuir a moderar la crisis. La información de la crisis financiera ocurrida a finales de la década de los noventa se utilizó para contrastar la validez del modelo (contable y financiero). Los resultados permiten afirmar que dicha crisis pudo ser pronosticada desde finales de 1997, o sea un año antes de que se llevara a cabo la declaratoria de emergencia económica, generada por la gran vulnerabilidad financiera que estaba registrando el sistema bancario colombiano.Sistema de alertas tempranas; Stress testing; Indicador financiero único. Classification JEL: G01; G21.

    Análisis de los componentes de la estrategia de operaciones con enfoque de servicio

    Get PDF
    El objetivo de este artículo fue aportar luces sobre la cuestión de cuáles son los componentes de la estrategia de operaciones que pueden favorecer el control del servicio y la orientación al cliente, para lograr paulatinamente altos estándares en la entrega del servicio, acordes con los cambios en el mercado y con la cadena de valor de la compañía. Para esto, se realizó una investigación exploratoria que usó el método inductivo a través de análisis factorial exploratorio con el modelo Promax de rotación oblicua. Las indagaciones de tipo exploratorio se realizaron a 43 empresas a través de un muestreo a conveniencia en departamento del Valle del Cauca (Colombia). Se buscaron, principalmente, empresas del sector servicios, de alguna consolidación en el mercado y que facilitaran la aplicación de una encuesta presencial y de calidad al personal de dirección. Como resultado, se dejan las bases para un modelo conceptual que aporte al control de la estrategia de operaciones, de modo que sea posible concebir el valor para el cliente desde una estrategia de operaciones que parte de los atributos de calidad del servicio y se fundamenta en los factores subyacentes hallados en el modelo explorado, tales como: el control del servicio, la gestión de las instalaciones orientadas al cliente, sistemas de información y tecnologías asociadas. Como perspectiva, se plantea la necesidad de análisis factorial confirmatorio, con mayor tamaño de muestra para organizaciones de servicio con trayectoria en el mercado
    • …
    corecore